随着物联网,AI和ML/DL算法的出现,数据驱动的医疗应用已成为一种有前途的工具,用于从医学数据设计可靠且可扩展的诊断和预后模型。近年来,这引起了从学术界到工业的广泛关注。这无疑改善了医疗保健提供的质量。但是,由于这些基于AI的医疗应用程序在满足严格的安全性,隐私和服务标准(例如低延迟)方面的困难,因此仍然采用较差。此外,医疗数据通常是分散的和私人的,这使得在人群之间产生强大的结果具有挑战性。联邦学习(FL)的最新发展使得以分布式方式训练复杂的机器学习模型成为可能。因此,FL已成为一个积极的研究领域,尤其是以分散的方式处理网络边缘的医疗数据,以保护隐私和安全问题。为此,本次调查论文重点介绍了数据共享是重大负担的医疗应用中FL技术的当前和未来。它还审查并讨论了当前的研究趋势及其设计可靠和可扩展模型的结果。我们概述了FL将军的统计问题,设备挑战,安全性,隐私问题及其在医疗领域的潜力。此外,我们的研究还集中在医疗应用上,我们重点介绍了全球癌症的负担以及有效利用FL来开发计算机辅助诊断工具来解决这些诊断工具。我们希望这篇评论是一个检查站,以彻底的方式阐明现有的最新最新作品,并为该领域提供开放的问题和未来的研究指示。
translated by 谷歌翻译
Identifying spurious correlations learned by a trained model is at the core of refining a trained model and building a trustworthy model. We present a simple method to identify spurious correlations that have been learned by a model trained for image classification problems. We apply image-level perturbations and monitor changes in certainties of predictions made using the trained model. We demonstrate this approach using an image classification dataset that contains images with synthetically generated spurious regions and show that the trained model was overdependent on spurious regions. Moreover, we remove the learned spurious correlations with an explanation based learning approach.
translated by 谷歌翻译
解释性互动学习(XIL)收集了有关视觉模型解释的用户反馈,以实现基于人类的交互式学习方案。不同的用户反馈类型将对用户体验以及收集反馈相关的成本产生不同的影响,因为不同的反馈类型涉及不同级别的图像注释。尽管XIL已被用来改善多个域中的分类性能,但不同的用户反馈类型对模型性能和解释精度的影响尚未得到很好的研究。为了指导未来的XIL工作,我们比较图像分类任务中两种不同用户反馈类型的有效性:(1)指示算法忽略某些虚假图像特征,以及(2)指导算法专注于某些有效的图像特征。我们使用基于梯度加权类激活映射(GARGCAM)XIL模型的解释来支持两种反馈类型。我们表明,与用户反馈相比,识别和注释的虚假图像特征与用户反馈相比,该模型可以找到出色的分类和解释精度,该功能告诉模型专注于有效的图像特征。
translated by 谷歌翻译
贫困的休息习惯已被鉴定为肌肉骨骼疾病的危险因素,尤其是老年人,残疾人,办公室工人。在目前的计算机化世界中,即使在参与休闲或工作活动时,人们也倾向于花费大部分时间坐在电脑桌前。这可能导致脊柱疼痛和相关问题。因此,一种提醒人们对休息习惯的手段,并为逆损提供建议,如体育锻炼,这是重要的。由于大多数作品侧重于常设姿势,坐姿的姿势识别并没有受到足够的关注。可穿戴传感器,压力或力传感器,视频和图像用于文献中的姿势识别。本研究的目的是通过分析从座椅和靠背的32个压力传感器的椅子上的椅子收集的数据来构建机器学习模型。模型是使用五种算法建造的:随机森林(RF),高斯NA \“IVE Bayes,Logistic回归,支持向量机和深神经网络(DNN)。使用KFOLD交叉验证技术进行评估所有模型。本文提出了实验使用两种单独的数据集,受控和现实进行,并讨论在六个坐姿分类的结果。在受控和现实数据集中分别实现了98%和97%的平均分类精度。
translated by 谷歌翻译
强化学习(RL)涉及在未知系统中执行探索性动作。这可以将学习代理放在危险且潜在的灾难性系统中。当前在RL中解决安全学习的方法同时权衡了安全探索和任务实现。在本文中,我们介绍了新一代的RL求解器,这些求解器学会最大程度地减少安全性违规行为,同时在安全政策可以容忍的范围内最大化任务奖励。我们的方法引入了一个新型的两人框架,用于安全RL,称为分配探索安全培训算法(DESTA)。 DESTA的核心是两种自适应代理之间的游戏:安全代理,其任务是最大程度地减少安全违规行为和任务代理,其目标是最大程度地提高环境奖励。具体而言,安全代理可以在任何给定点有选择地控制系统,以防止任务代理在任何其他州自由执行其策略时违反安全性。该框架使安全代理能够学会在培训和测试时间中最大程度地减少未来安全违规行为的某些行动,而任务代理人执行的动作可以最大程度地提高其他任何地方的任务绩效。从理论上讲,我们证明DESTA会汇合到稳定的点,从而最大程度地违反了对预验证的政策的行为。从经验上讲,我们表明了DESTA提高现有政策安全性的能力,其次,当对任务代理和安全代理人同时培训时,构建安全的RL政策。我们展示了DESTA在Lunar Lander和Openai Gym的Frozen Lake中的领先RL方法的出色表现。
translated by 谷歌翻译
现代行业仍依靠手动制造业务,安全的人机互动现在是非常兴趣的。速度和分离监测(SSM)允许通过在机器人操作期间维持保护分离距离来实现紧密和高效的协作情景。本文侧重于一种新的方法来加强对机器人手段的触觉反馈来加强SSM安全要求。基于机器人和操作员的人的反应时间和瞬时速度,触觉刺激为机器人提供了危险运动和接近机器人的早期警告。进行初步实验以确定参与者在具有受控条件的协作环境中暴露于触觉刺激时的反应时间。在第二次实验中,我们将我们的方法评估为人工和Cobot进行协同行星齿轮组件的研究案例。结果表明,与仅在视觉反馈的操作员相比,施加的方法增加了机器人的末端效应器之间的平均最小距离,手中的末端效应器与44%增加了44%。此外,没有触觉支持的参与者已经失败了几次以维持保护性分离距离。
translated by 谷歌翻译